Между защитой и приватностью. Как и почему Apple хочет сканировать ваши фотографии

Нoвыe плaны Apple пo скaнирoвaнию фoтo нa смaртфoнax будут прoтивoдeйствoвaть рaспрoстрaнeнию дeтскoгo пoрнo. Oднaкo сии нoвoсти вызывaют прoтeсты зaщитникoв привaтнoсти.

Пoчeму у Apple рeшили искaть oпaсный кoнтeнт

Кoмпaния Apple сooбщилa o нoвыx шaгax, нaпрaвлeнныx нa зaщиту дeтeй и кoнтeнтa с ними. Этoт aнoнс вызвaл aктивнoe oбсуждeниe срeди тexнoлoгичeскиx экспeртoв, вeдь eдвa ли нe впeрвыe фирмa, кoтoрaя дaвнo дeклaрируeт увaжeниe к привaтнoсти свoиx пoльзoвaтeлeй и иx дaнным, oткрoвeннo зaявилa o внeдрeнии тexнoлoгий скaнирoвaния кoнтeнтa. И xoтя никтo нe сoмнeвaeтся в вaжнoсти тaкиx инструмeнтoв и нeoбxoдимoсти зaщиты дeтeй и oт врeднoгo кoнтeнтa, и oт рaспрoстрaнeния фoтoгрaфий с иx изoбрaжeниями, сии плaны Apple нaзвaли ужaсными с тoчки зрeния иx пoтeнциaльнoгo испoльзoвaния, в чaстнoсти, влaстями рaзныx стрaн с цeлью прeслeдoвaния грaждaн.

Прoблeмa кoнтeнтa с изoбрaжeниeм дeтeй нeприeмлeмoгo сoдeржaния, чaщe всeгo — примeры сeксуaльнoй эксплуaтaции дeтeй, стaнoвится сeрьeзнeй с кaждым гoдoм. Пo дaнным кoмпaнии Thorn, которая разрабатывает программное залог для обнаружения изображений жестокого обращения с детьми, ради последние несколько парение количество таких фотографий увеличилась возьми 15 000%. В то но время аналитики этой компании пришли к выводу, что такое? более 20% подростков в возрасте ото 13 до 17 планирование присылали другому человеку домашние обнаженные фото. Употребительность такой практики внутри современных подростков невыгодный доказывает, что детям делают и пересылают сии снимки осознанно, понимая по сей день риски и для собственной безопасности, и про будущей сексуальной эксплуатации. Вот и все для решения таких проблем компашечка Apple анонсировала приманка новые защитные инструменты.

Новые инструменты через Apple: осторожный разбирательство

В Apple рассказали, как будто компания планирует кооп ряд изменений в ее операционную систему iOS — они появятся в версии iOS 15, а засим и в операционной системе исполнение) ноутбуков macOS Monterey ранее этой осенью.

Новая вариация iOS получит специальные инструменты, которые смогут исследовать фотографии пользователей и откапывать среди них такие, которые могут почитаться примерами сексуальной эксплуатации детей. Новые инструменты будут разыскивать материалы, которые определяются ни дать ни взять CSAM (child sexual abuse material) — контент сексуального насилия надо детьми. Эти материалы будут выслеживать в автоматическом режиме около загрузке фотографий в iCloud. В Apple подчеркивают, будто компания не планирует заканчивать полное сканирование содержания iCloud.

В компании обещают, как будто анализ фото брось осуществляться частно сверху устройствах пользователей с применением нейронных сетей, которые накануне тем прошли выучка на примере фотографий, предоставленных организацией в NCMEC — Национальным центром пропавших и эксплуатируемых детей (National Center for Missing & Exploited Children). Иными словами, нейросеть изучит известные карточка с изображением случаев лесопосадка-эксплуатации детей и шарить на устройствах пользователей их аналоги. Коэффициент полезного действия анализа будет держаться в зашифрованном виде (в виде набора хэшей), тот или иной будет сравниваться с предоставленной базой данных.

В случае если результат сравнения превысит решенный допустимый порог (что-что будет свидетельствовать о фолиант, что фото пользователя наверное на фотопример детского порно), фотоателье станет подозрительной. Даже если таких снимков короче несколько и уровень сходства закругляйтесь высокий, люди-операторы передадут информацию о необходимости расшифровки такого фотоотпечаток, то есть просмотра снимка-оригинала. Если только система не ошиблась, и позитив действительно окажется CSAM-контентом, исходны данные будет передана в правоохранительные органы, к примеру, в NCMEC.

Как изменится в iMessage

Окр анализа фотографий в iCloud, шаражка планирует применять рассмотрение к снимкам, получаемым и пересылаемым в ее мессенджере iMessages. Расследование также будет происходить исключительно на устройстве пользователя. Старики детей до 13 планирование могут включить опцию анализа фотографий, которые отправляются, в настройки семейного аккаунта Apple. В этом случае государственное устройство сначала спросит, признаться сказать ли ребенок хочет перевести этот файл другому пользователю. Коль скоро ребенок откажется, ведь больше никаких действий претворяться в жизнь не будет. В случае если согласится, то об этом пора и честь знать сообщено родителям с одновременной пересылкой им фотомордочка. У ребенка до 13 планирование доступ к этому фотка больше не кончай. Для детей в возрасте с 13 до 17 полет подозрительные фото будут сберегаться, но без оповещения родителей и их доступа к снимкам.

В компании считают, точно такой подход позволит детьми принимать более обоснованные решения — и владеть родителей в курсе. Окр того, эти функции будут доступны точию на устройствах, которые являются в некоторой мере семейной учетной ежедневник iCloud.

Фотографии, которые получают несовершеннолетние пользователи, и которые определены (то) есть потенциально опасные, будут размываться. Родителям как и будут сообщать, благо их дети получают фотографии недопустимого содержания.

Продолжает ли Apple пригреть кого приватность? Мнение «против»

Таковой анонс от Apple вызвал пертурбация защитников приватности. И так компания подчеркнула, по какой причине все будет делаться на устройстве пользователя, в условно замкнутой системе, тем безлюдный (=малолюдный) менее это повлекло молва об откровенном массовом наблюдении со стороны компании, которая всю жизнь позиционировала себя наподобие главного защитника приватности в мире незащищенных данных.

Financial Times цитирует профессора университета Кембриджа Цивета Андерсона (Ross J. Anderson), некоторый назвал планы Apple «ужасной идеей, которая открывает способ к массовому наблюдению вслед за компьютерами и смартфонами», и подчеркнул, в чем дело? эту систему без (труда адаптировать к поиску других рисунков, отнюдь не связанных с детским порно, к примеру, таких, которые доказывают забота человека в уличных протестах. Педагог университета Джона Хопкинса Мэтью Американский рубль (Matthew Green) сказал, что же это решение Apple приближает нас к «миру 1984», имея в виду Романчик-антиутопию Джорджа Оруэлла.

Такое а мнение высказали представители Electronic Frontier Foundation в своем блоге, которые видят в таком шаге Apple реальную рискованность того, что правительства сейчас в ближайшее время смогут просмотреть разного рода существо на наших устройствах в режиме реального времени, вызывая разные проблемы с правами человека. Сие может начаться с спрос сканировать содержимое террористов; само формулировка «терроризма» может со временем хлестко расшириться; а последствия на свободы слова могут водиться критическими.

Реалии современного таблица: как бороться с опасным контентом, сохраняя секретность?

На самом деле, правительства многих стран сейчас давно хотят залезть в аккаунты и устройства пользователей, пытаясь держи законодательном уровне воспрепятствовать инструменты шифрования, во всяком случае те не позволяют произносить переписку пользователей и создаваемый ими контент.

Одна изо самых известных историй противостояния в этом направлении произошла вторично в 2016 году и как у себя дома касалась Apple, которую в судебном порядке ФБР пыталось подвигнуть предоставить доступ к iPhone террориста с Сан-Бернардино, убившего 16 человечек. Судебные иски продолжались сколько-нибудь месяцев, и Apple смогла встать на защиту в суде свою позицию, аргументируя ее тем, точно она не может изменить доверие своих клиентов, уверенных в защите собственных данных.

С тех пор подобных историй было более чем достаточно, а высказывания правительств разных стран пользовательского контента становились кроме жестче.

Представляется, чисто в противостоянии технологических компаний и государств Apple определила свою позицию, которую продемонстрировала в новых анонсах объединение CSAM-контенту: компанийка планирует продолжать пустить в дело сквозное шифрование, которое малограмотный позволит просматривать контент пользователей, а собственными силами хорошенького понемножку сканировать этот контент довольно-таки на их устройствах.

Кейси Ньютон (Casey Newton) в своей рассылке Platformer называет сей шаг Apple важным и влияющим получи и распишись всю отрасль.

«Закрывать смотрелки на сексуальную эксплуатацию детей в долгосрочной перспективе не разрешается, особенно в современных масштабах. Я признать себя виновным не могу мы должны обождать, чтобы увидеть, (то) есть это работает сверху практике, на центральный взгляд, это выглядит умным и вдумчивым».

Кейси Ньютон

я рассылки The Platformer

Кейси Ньютон

составитель рассылки The Platformer

Зубр подчеркивает, что пишущий эти строки не будем целиком и полностью понимать последствия сих изменений, пока их без- развернут по всему миру.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.